Представител на Масачузетс предупреждава, че AI системите подлежат на закони за защита на потребителите, антидискриминационни закони
БОСТЪН (AP) — Разработчиците, доставчиците и потребителите на изкуствен интелект би трябвало да съблюдават съществуващите държавни закони за отбрана на потребителите, антидискриминация и дискретност на данните, предизвести основният прокурор на Масачузетс във вторник.
В консултация основният прокурор Андреа Кембъл уточни това, което тя разказа като необятно публикуваното нарастване на потреблението на AI и алгоритмични системи за взимане на решения от бизнеса, в това число технологии, фокусирани върху консуматори.
Съветът има за цел частично да подчертае, че съществуващите държавни закони за отбрана на потребителите, антидискриминация и сигурност на данните към момента се ползват за нововъзникващи технологии, в това число AI системи - макар сложността на тези системи - тъкмо както биха го създали във всеки различен подтекст.
„ Няма подозрение, че ИИ има голям и трогателен капацитет да бъде от изгода за обществото и нашата общественост по доста способи, в това число поощряване на нововъведенията и повишение на успеваемостта и спестяването на разноски на пазара, “, сподели Камбъл в изказване.
Въпреки това, тези изгоди не надвишават действителния риск от щета, която, да вземем за пример, всяка пристрастност и липса на бистрота в границите на AI системите, може да аргументи на нашите жители “, добави тя.
Фалшивото рекламиране на използваемостта на AI системите, даването на AI система, която е дефектна, и неправилното показване на надеждността или сигурността на AI система са единствено някои от дейностите, които могат да се смятат за нечестни и лъжливи съгласно законите за отбрана на потребителите на страната, Кембъл сподели.
Погрешно показване на аудио- или видеосъдържание на обещано лице за машинация на друго лице да взе участие в бизнес транзакция или даване на персонална информация като че ли на приближен бизнес сътрудник — както в тази ситуация на дълбоки фалшификации, гласово клониране или чатботове, употребявани за ангажиране при измами — също може да наруши държавния закон, добави тя.
Целта частично е да се насърчат фирмите да подсигуряват, че техните AI артикули и услуги са свободни от пристрастия, преди да влязат в комерсиалния поток — по-скоро в сравнение с да се сблъскате с следствията по-късно.
Регулаторите също споделят, че фирмите би трябвало да разкриват на потребителите, когато взаимодействат с логаритми. Липсата на бистрота може да влезе в несъгласие със законите за отбрана на потребителите.
Елизабет Махоуни от Съвета за високи технологии в Масачузетс, който се застъпва за софтуерната стопанска система на щата, сподели това, тъй като може да има известно комплициране по отношение на това по какъв начин държавните и федералните правила използвани към потреблението на AI, от решаващо значение е ясно да се формулират държавните закони.
„ Смятаме, че съществуването на съществени правила е значимо и отбраната на потребителите и отбраната на данните е основен съставен елемент от това, “ сподели тя. p>
Кембъл признава в своя съвет, че ИИ има капацитета да помогне за постигането на огромни изгоди за обществото, макар че е потвърдено, че съставлява съществени опасности за потребителите, в това число пристрастия и неналичието на бистрота.
Разработчиците и доставчиците дават обещание, че техните AI системи и технологии са точни, почтени и ефикасни, макар че те също настояват, че AI е „ черна кутия “, което значи, че не знаят тъкмо по какъв начин AI работи или генерира резултати, сподели тя в своя съвет.
Съветът също по този начин отбелязва, че антидискриминационните закони на страната не разрешават на разработчиците, доставчиците и потребителите на ИИ да употребяват технология, която дискриминира лица въз основа на законово предпазена характерност – като технология, която разчита на дискриминационни входове или води до дискриминационни резултати, които биха нарушили законите за гражданските права на страната, сподели Кембъл.
Разработчиците, доставчиците и потребителите на AI също би трябвало да подхващат стъпки за отбрана на персоналните данни, употребявани от системите на AI, и да съблюдават известието на страната за нарушение на сигурността на данните условия, добави тя.